#AI 聊天機器人
華盛頓郵報:ChatGPT被高估了,以下是一些替代選擇
ChatGPT is overrated. Here’s what to use instead.當我需要人工智慧的幫助時,ChatGPT 不再是我的首選。(插圖:Elena Lacey/《華盛頓郵報》;Adobe Stock)你那位喜歡嘗鮮的朋友對 ChatGPT 的膳食計畫讚不絕口。你的老闆認為 Microsoft Copilot 能“提升 10 倍生產力”。你的社交媒體動態則認為 Meta AI 簡直就是個垃圾機器。他們大多隻是憑感覺行事。我可以告訴你那些人工智慧工具值得使用,那些應該避免使用,因為我一直在營運一個聊天機器人實戰俱樂部。我根據人們使用人工智慧進行的實際活動,進行了數十項機器人挑戰,包括撰寫分手簡訊和工作郵件、解讀法律合同和科學研究、回答棘手的研究問題以及編輯照片和創作“藝術作品”。包括暢銷書作家、參考圖書館員、一位著名科學家,甚至一位普利策獎得主攝影師在內的人類專家對結果進行了評判。經過一年的機器人大戰,有一點顯而易見:沒有絕對最好的AI。如今使用聊天機器人的最明智方式是針對不同的任務選擇不同的工具,而不是指望一個機器人就能包攬一切。舉個例子:聊天機器人界的“舒潔”——ChatGPT,在我所有的直接對決中都敗下陣來。即使是那些最終獲勝的機器人,也很少能達到人類及格的水平。評委們表示,Anthropic公司的Claude機器人寫出的分手簡訊比我寫的還要好。大多數機器人被“iPhone有多少個按鈕?”這個問題難住了。ChatGPT在一個真實的醫學問題上擊敗了一位頂尖醫生——但它給出的建議也可能對你造成嚴重傷害。讓人類專家來評判這些測試,改變了我對聊天機器人的看法,以及我在生活中使用它們的方式。即使你擔心人工智慧會搶走工作、破壞環境或侵犯隱私,但拋開炒作,瞭解當今人工智慧工具的實際表現仍然很有價值。提升人工智慧素養可以幫助你認識到,機器人並非真正“智能”,但同時又能最大限度地發揮它們的實際功能。那款聊天機器人最適合你?三年前,ChatGPT 開啟了生成式人工智慧的競賽,如今它的開發商 OpenAI 表示,它每周的使用者量高達 8 億。過去,每當我想尋找同義詞或冷知識時,它都是我的首選。但當我開始系統地進行測試後,發現 ChatGPT 在最受歡迎的聊天機器人中排名從未超過第二。(《華盛頓郵報》與 OpenAI 有內容合作關係。)OpenAI 近期發佈了內部“紅色警報”,指示員工將工作重心從網頁瀏覽器等項目轉移到改進 ChatGPT 的響應能力上。“我們很高興能在 2026 年繼續提升 ChatGPT 的性能,”發言人 Taya Christianson 表示。根據我的機器人格鬥俱樂部經驗,我現在會針對不同類型的任務選擇不同的機器人。以下是實際操作中的具體情況:我用Claude來寫作和編輯。它的措辭更優美,偶爾還能開個玩笑,而且不太可能像 Claude 那樣,在郵件開頭就用“希望你一切都好”這種令人心碎的客套話。在我的一項測試中——用 Claude 寫一封道歉信——評委Pamela Skillings說 Claude “能夠傳達真實的人類情感和周到的考慮”。為了進行研究和快速尋找答案,我使用Google的AI模式,而不是普通Google搜尋結果中彈出的AI概覽,後者可靠性遠不及前者。AI模式是一款聊天機器人式的搜尋工具,它可以在給出答案之前進行數十次搜尋。這也有助於它提供更及時的資訊:在我的研究測試中,它正確識別出了目前推薦的乳腺炎(一種乳房感染)治療方法,而其他機器人提供的卻是過時的方案。在處理文件方面,我使用Claude。在我的文件分析測試中,它是唯一一個從不捏造事實的機器人。資深公司律師斯特林·米勒法官表示,當我讓機器人就一份租賃協議提出修改建議時,Claude 的回答最接近“律師的良好替代品”。對於圖像處理,我使用Google的Gemini,它在我設計的所有測試中都遙遙領先於其他競爭對手。當我讓機器人從照片中移除兩個主體中的一個時,結果非常逼真——甚至連裙子上亮片反射的光線等細節都完美呈現——以至於評委、攝影記者大衛·卡森驚嘆不已。他根本看不出Gemini的輸出是由人工智慧生成的。我已經介紹了一些主要的AI應用案例,但並非全部。(如果您有關於更公平的機器人測試的建議,請給我發郵件。)我的測試比科技公司喜歡吹捧的行業基準測試需要更多的人為判斷。他們通常使用自動化測試,讓機器人回答一系列問題,就像醫學或法律考試一樣。但機器人可以被訓練成在這些測試中取得高分,掩蓋了它們在實際問題中表現不佳的事實。你可能不會同意我提出的每一個問題或個別評委的觀點,但人類的評估方式更接近我們現在實際使用人工智慧的方式。這就引出了另一個問題:什麼時候應該使用聊天機器人?當機器人讓我們失望時在我的AI格鬥俱樂部裡,機器人有時表現令人印象深刻。但只有一次,裁判給機器人的總分超過了70%——這是通常的及格分數線。那一項得分——84%——是 Gemini 在圖片製作和編輯方面的得分。大多數獲勝者的得分都在 50% 到 65% 之間。“問題是,沒有那個工具能全都拿到 10 分,”擔任我們摘要測試評委的律師米勒說道。這並不意味著如今的人工智慧工具毫無用處。但這確實意味著,你需要對它們的侷限性抱持懷疑態度。將人工智慧應用於某項任務並不總是能提升其效果。當我們測試人工智慧回答冷知識問題的能力時,我們的圖書管理員評委表示,他們完全可以通過傳統的Google搜尋找到大部分答案。人工智慧確實加快了給出答案的速度,但問題在於,其中一些答案是錯誤的。最有效的AI素養訓練方式莫過於觀察機器人的失敗。在我的知識問答測試中,它們連iPhone上有多少個按鈕都答不上來。ChatGPT說是四個,Claude和Meta AI說是三個,而Copilot說是六個。正確答案是五個,指的是最新的高端iPhone機型。為什麼會有這樣的困惑呢?因為機器人過度依賴文字,而且目前還不擅長識別圖片。如今的聊天機器人極力想要立即給你一個看似答案的答覆。它們非常不擅長表達不確定性。例如:在我舉辦的知識競賽中,我問機器人:“《神奇四俠》在爛番茄上的評分是多少?”當時,它是票房冠軍。但即使是最終的獲勝者——AI模式,也答錯了,給出了2015年一部臭名昭著的《神奇四俠》電影的評分。它甚至都沒問我指的是那一部。在我的寫作測試中,當機器人無法將措辭與上下文相符時,它們常常顯得不夠真誠。ChatGPT 就曾有過一次令人尷尬的經歷,它在分手簡訊中使用了帶有被動攻擊意味的短語“that said”:“我覺得你是個很棒的人。話雖如此,我意識到我們之間沒有未來。”如果我可以改變當今人工智慧工具的一件事,我會讓它們更擅長提出後續問題,這些問題可能會徹底改變答案。當我請加州大學舊金山分校醫學系主任鮑勃·瓦赫特(Bob Wachter)評價ChatGPT對真實醫療問題的回答時,他的一番話讓我印象深刻。他指出,擁有無限知識的機器人與一位優秀的醫生之間的區別在於,醫生懂得如何用更多的問題來回答問題。這才是真正解決問題的方法。瓦赫特建議了一種我現在經常使用的AI策略:在向聊天機器人提出問題之前,儘可能詳細地提供所有資訊,因為AI可能不會主動詢問某些資訊就嘗試回答。例如,與其說“總結這份租賃合同”,不如說“為華盛頓特區的租戶總結這份租賃合同,並標記有關費用、續租和提前終止的條款”。我還向我的聊天機器人加入了一條“自訂指令”,告訴它們“如果提示含糊不清,則在回答之前先請求澄清”。我希望這些技巧能幫助你從人工智慧中獲得更有用的答案。這些工具會不斷發展——它們的問題也會隨之而來。基於你的資料來個性化機器人回覆的做法,增加了隱私侵犯和操縱的風險。我總是會更改機器人的默認設定來保護我的資料。2026年及以後,我們必然會面臨更多的人工智慧產品。我們該如何應對?對我來說,答案和今年以來一樣:讓機器人格鬥俱樂部持續運轉——並且讓人類坐在裁判的位置上。 (invest wallstreet)
世界經濟論壇最新發佈《執行中的人工智慧代理:2025 年評估和治理基礎》:企業如何讓 AI agents 既強大又可靠?
在 AI 技術迅猛發展的當下,AI agents(人工智慧代理)正從實驗室原型走向企業實戰,成為提升效率的“數字員工”。然而,如何讓這些“智能助手”既強大又可靠?世界經濟論壇(WEF)與Capgemini攜手發佈的《AI Agents in Action: Foundations for Evaluation and Governance 2025》(人工智慧代理在行動:2025年評估和治理基礎)白皮書,給出了實用答案。這份報告為決策者、技術領袖和從業者量身打造的“行動手冊”,幫助大家從實驗到部署,一步步建構安全、可信的 AI agents 生態。AI agents:從“聊天機器人”到“決策夥伴”的躍遷在呼叫中心,過去是指令碼化的聊天機器人,現在是能理解意圖、動態決策的AI agents;在企業流程中,它不再是靜態工具,而是像人類同事一樣規劃任務、呼叫資源。報告前言中,Capgemini Invent首席執行長Roshan Gya和WEF人工智慧卓越中心負責人Cathy Li 表示:AI agents 的興起將帶來效率飛躍、人機互動革新,甚至催生全新數字生態。但機遇伴隨挑戰——目標錯位、行為漂移、工具濫用等風險,正考驗著傳統軟體治理的極限。這份報告的核心洞見是:AI agents 不是簡單升級,而是範式轉變。它借鑑人類入職流程——定義角色、測試表現、逐步授權——強調“最小特權原則”,即只賦予必要權限。報告調研顯示,目前多數企業還停留在規劃或試點階段,這正是“從小處起步、迭代謹慎、防護適度”的最佳時機。如果貿然推進,未經驗證的用例可能釀成信任危機。報告建議:通過跨職能協作和漸進治理,讓AI agents放大人類智慧,推動創新,提升生活品質。技術基石:建構可靠的 AI agents 架構AI agents的軟體架構、通訊協議和安全模型,直接決定了它們如何融入組織、與世界互動。就像招聘新員工,企業需為AI agents搭建“工作站”——清晰角色、防護機制、監督體系。AI agents的架構分為三層:應用層、編排層和推理層。簡單說,應用層是“門面”,通過使用者介面或API接收輸入,確保輸出符合業務需求,可在雲端或邊緣裝置運行。編排層像“項目經理”,協調工具呼叫、子代理分工,支援模型切換(根據任務複雜度選大模型或小模型),並通過Model Context Protocol(MCP)連接企業資源,如資料庫或CRM系統。這層讓AI agents擺脫供應商鎖定,實現多雲多邊環境的無縫協作。最有趣的是推理層:它驅動AI agents的“思考”——從規則邏輯到生成式模型,處理預測、分類或規劃。報告用圖示說明:這些層協同工作,形成動態邊界,確保AI agents在安全圍欄內行動。舉例來說,在多代理系統中,A2A(代理間協議)和ACP(代理連接協議)讓它們像團隊一樣協作,處理複雜依賴。報告強調,建構AI agents不止工程,還需orchestration(編排)。它融合四種範式:經典軟體的確定邏輯、神經網路的模式識別、基礎模型的上下文適應,以及自主控制的規劃機制。這讓AI agents從“執行命令”進化到“自主決策”,但也引入新複雜性——需結構化腳手架,避免行為失控。通訊與安全:讓 AI agents “對話”無障礙協議是AI agents的“通用語言”。報告重點介紹2024年底Anthropic推出的MCP,它標準化了代理與資料來源、API的連接。過去,每個代理任務需定製整合;現在,MCP如共享介面,讓代理輕鬆查日曆、讀郵件、更新資料庫。報告圖示生動:代理A發郵件更新記錄,代理 B 確認資料庫變更,整個過程高效模組化。MCP已獲主流框架支援,被視為連接代理與企業基礎設施的核心。它加速部署,支援即插即用,尤其在雲、邊緣和感測器資料場景。另一協議A2A則專注代理間互動,形成multi-agent systems(MAS)的互操作層。報告展望:這些協議將讓AI agents在雲平台、企業網和邊緣裝置間自由流動,開啟即時感測器驅動的智能時代。安全不容忽視。AI agents架構獨特,能越過組織邊界呼叫外部工具,這帶來網路安全新憂。報告建議:視AI agents為“擴展員工”,用人類治理邏輯——權限漸增、行為測試、人機環路——管理風險。傳統存取控制已不足,需關注自治、權威和上下文,確保可靠邊界。分類與評估:從角色定義到風險把控報告第二部分轉向實用:如何分類、評估和治理 AI agents?它提出功能分類框架,按角色、自治度、權威、可預測性和營運上下文區分代理。這不是抽象標籤,而是指導評估與防護的藍圖——任務範圍小、環境可控的代理,防護可輕;高自治、高影響的,則需嚴謹審查。評估是關鍵。報告建議:用驗證案例測試行為,在人機環路中運行,逐步擴展自治。風險評估聚焦新威脅,如目標錯位或協調失效,借鑑OECD、NIST、ISO/IEC框架,擴展自治與系統風險原則。報告強調漸進治理:從小規模起步,迭代最佳化,連接評估與防護,確保信任、安全與問責。展望未來:多代理生態的曙光報告結尾展望多代理生態:代理間協作將催生複雜生態,如分佈式決策網路。但需警惕 emergent risks(湧現風險)。通過 AI 治理聯盟的協作,報告建議:從小做起,建好基礎,為更廣闊應用鋪路。 (AI資訊風向)
聊天機器人已死,前沿AI代理人才是未來
在2025 年AWS re:Invent 2025 上,AWS 向全世界宣告-「聊天機器人時代」已結束。曾經讓人驚嘆的AI 聊天助手,如今被一種更強大的存在所取代——Frontier Agents(前沿AI 代理人/ 智能體)。這些智能體不只是會“對話”,它們已經足夠先進,可以獨自工作數日。也就是說,AI 不再只是工具,而是真正能夠承擔任務、產出結果、解決問題的「數位同事」。本文將帶你深入了解這場變革背後的邏輯、技術、商業意義,以及對企業與未來工作的深遠影響。為什麼說“Chatbot 熱潮已經結束”✳️ 聊天機器人的限制已經顯現過去兩年裡,大量公司和開發者蜂擁建構各類聊天機器人,無論是客服、問答、內容產生、陪聊,或是內部工具助理。這些聊天機器人依賴的是「對話+ 模板+ LLM 回應」的模式—— 用戶提問,對話系統回應,整個過程極為依賴用戶的主動參與。然而,這種模式已經遇到三大瓶頸:只能被動回應:必須有人啟動對話,告訴它該做什麼。對於複雜、跨越多個步驟的任務無能為力。上下文管理差:多數聊天機器人只考慮當前對話,難以追蹤過去的狀態,更別提「記憶」與「進度」。生產效率低:生成一段文字、給建議還好,要完成工作、推進流程,就顯得力不從心。隨著業務複雜性與自動化需求的提升,聊天機器人的「wow 效應」不再令人滿足。企業和開發者開始意識:我們真正需要的是,能夠主動執行任務、持續運作、自主做決定的AI。什麼是前沿AI 代理人(Frontier Agents)🤖 從助理到代理人:AI 的新範式「Agent」——這個詞在AI 領域已經有長期歷史,但其本質是:一個可以觀察環境、收集數據、制定計劃並執行任務的軟體系統。它不僅聽指令、聊聊天,而是能看清目標,自主作業。前沿AI 代理人的特點包括:自主性高:在給定目標後,無需使用者持續干預,就能推動任務向前。持久運轉:可以工作數小時、數天,處理複雜、連續的任務流程。多工& 可擴展:不僅能處理一個簡單請求,還能並行處理多個任務,有類似團隊成員的能力。工具& 環境呼叫能力:不僅限於文字生成,還可以呼叫程式碼庫、API、第三方服務、資料庫等,實現端對端自動化。換句話說,前沿AI 代理人代表了AI 從「聊天+ 回答」邁向「思考+ 行動+ 落地執行」的關鍵進化。AWS 的大動作:Frontier Agents + AgentCore + 強大基礎設施在AWS re:Invent 2025 上,AWS 的發布可謂下足了狠手—— 不僅推出了Frontier Agents,還為它們配備了完整的運行系統與基礎設施保障。✅ 三大重點突破三類「出廠即用」 Frontier Agents:Kiro Agent — 虛擬開發者,能夠自動編寫、修改程式碼,處理倉庫任務與bug 修復。AWS Security Agent — 安全顧問,負責雲端安全監控、漏洞掃描、策略分析。AWS DevOps Agent — DevOps/維運代理,自動處理部署、監控、資源管理等任務。Amazon Bedrock AgentCore — Agent 的作業系統對於運行AI 代理人,光是有模型還不夠,還需要穩定的「agent 平台」。 AgentCore 提供狀態管理、情境追蹤、權限控制、多agent 協作、日誌與監控,是生產環境層級不可或缺的基礎架構。 底層硬體+ 混合部署能力為了解決AI agent 運算量大、資源消耗高的問題,AWS 同步推出了新一代硬體-Trainium3 UltraServer,號稱效能提升4.4 ×。同時,透過「AI 工廠」(AI Factories)解決企業對資料主權/ 隱私/ 本地化部署的顧慮:直接把算力帶入企業本地資料中心。 透過以上佈局,AWS 不只是發布幾個AI 產品,而是在建立一個完整、可規模部署、適合企業使用的「Agentic-AI 平台」。它試圖把AI agent 從「學術/ 實驗室玩具」變成「企業生產力工具」。為什麼這次轉變極具商業與時代意義效率提升+ 降本增效公司再也不需要為每個腳本、每個自動化流程都手撕程式碼,代理人可以全天候工作,大大提升工程效率。例如有企業使用AgentCore,將原本費時費力的開發流程壓縮到數周/數天內。 釋放人類勞動力,讓「高價值工作」 回歸人類代理人可以負責重複、機械、規則明確的任務,讓人類專注更高階、創意、需要判斷力的工作— 架構設計、產品規劃、策略決策。這樣,AI 像「數位同事」而不是「替代品」。 🌐 對AI 產業/ 整個網路生態:進入「Agentic Web」 時代對於整個AI 與互聯網生態而言,這意味著一個全新的階段正在到來—— 不再只是“人與AI 對話/ 互動”,而是“AI 代理人之間協作執行任務/ 流程”。有研究者聲稱,這將開啟「Agentic Web」(智能體驅動網路)的新紀元:AI 將不僅協助用戶,還將主動執行任務、協作、自動化流程,徹底改變我們使用網路、軟體、服務的方式。對於企業和用戶來說,這意味著:未來你不再“登入+ 搜尋+ 輸入命令”,而是告訴AI:幫我“完成這整個流程”。從呼叫客服、預訂行程,到撰寫報告、自動部署系統,AI 都可能一鍵搞定。潛在挑戰與隱憂:機會與風險共存雖然前沿AI 代理人前景光明,但並不意味著沒有風險和挑戰。以下是值得關注的幾個面向:⚠️ 安全、合規與治理風險當AI 可以自動作業系統、資料庫、網路環境時,它也可能——無意或故意——造成重大損害。刪除資料、洩漏隱私、配置錯誤、越權操作…這些風險都不能忽視。 AWS 為此推出了AgentCore Policy、權限控制、監控+ 評估機制,但安全體系必須嚴謹。🧠 技術複雜度與「人力+ 算力」門檻雖然Frontier Agents 降低了建構複雜自動化系統的門檻,但不是人人都能馬上用。他們仍然需要足夠的基礎設施(算力、資料中心/ 私有雲等),還需要正確配置、訓練和監督。對於許多中小企業來說,目前仍可能是可望不可即的。📈 企業組織結構與文化適應引進AI 代理人,不只是技術層面的變革,更是組織流程與文化的調整。誰來負責監督?誰承擔風險?員工該如何與AI 共事?這些問題,都需要組織進行深思熟慮。更重要的是——AI 是“輔助/ 增益”,還是“替代/ 衝擊”?社會與職業結構可能面臨再洗牌。總結:從說話到會工作-新時代已來AWS 在re:Invent 2025 發布的Frontier Agents,不只是一個新的AI 產品,而像是為整個AI 行業畫下了一條分水嶺—— “聊天/ 對話AI” 的黃金時代已經過去,真正進入 “Agentic-AI”、“系統AI” 的新時代。這意味著:未來我們需要學習的,將不只是如何寫prompt、如何與AI 對話,而是如何建構、部署、管理、治理AI 代理人;如何讓它們像可靠的「數位員工」一樣為企業、社會、使用者服務。(Allen談AI與ERP)
ChatGPT問世三周年,AI已經發展成了一場泡沫?
台北時間12月1日,據科技網站TechCrunch報導,美國當地時間11月30日,ChatGPT迎來問世三周年紀念日。這款聊天機器人引爆了生成式AI市場,但是或許也催生出了一場泡沫。2022年11月30日,OpenAI向世界推出了一款新產品,並輕描淡寫地將其描述為“一個名為ChatGPT的模型,它能以對話方式互動”。毫不誇張地說,ChatGPT隨後顛覆了商業和科技領域,迅速走紅。它至今仍位居蘋果免費應用排行榜首位,並且引爆了一波生成式AI產品的浪潮。改變股市《AI帝國》作者郝珂靈(Karen Hao)近日在接受TechCrunch採訪時指出,OpenAI“已經變得比世界上幾乎所有國家都更強大”,並正在“重塑我們的地緣政治和全部生活方式”。ChatGPT還影響了股市。彭博社發文分析了ChatGPT如何改變了股市格局。目前,最明顯的贏家當屬輝達。自ChatGPT發佈以來,輝達股價累計漲幅高達979%。與此同時,AI熱潮也提振了其他科技巨頭的股價:標普500指數中市值最高的七家企業輝達、微軟、蘋果、Alphabet、亞馬遜、Meta與博通全部是科技公司。它們的整體增長幾乎佔到標普500自ChatGPT推出以來64%漲幅的一半。這種格局導致市場呈現出更為極端的頭部集中現象。標普500指數是按市值加權的,而這七家公司如今佔指數權重的35%,相比三年前的大約20%有顯著上升。泡沫?這股熱潮還能持續多久?除了輝達CEO黃仁勳(Jensen Huang)外,越來越多的AI企業高管開始承認,行業可能正身處泡沫之中。“有人會在AI領域損失慘重。”OpenAI CEO薩姆·奧特曼(Sam Altman)在8月與記者共進晚餐時表示。同樣地,Sierra CEO兼OpenAI董事長佈雷特·泰勒(Bret Taylor)也認為行業正處於“泡沫”之中,並將其與上世紀90年代末的網際網路泡沫相提並論。他預測,雖然個別公司可能會失敗,“但AI將重塑經濟格局,就像網際網路一樣,未來必將創造巨大的經濟價值”。再過三年或更短的時間,人們或許就能知道這種樂觀是否合理。 (飆叔科技洞察)
Google AI突破,為何反成行業利空? | 巴倫科技
這不僅僅是一個DeepSeek時刻,它可能遠遠超過那個層面。一款由AI驅動的全新聊天機器人橫空出世,不僅引發了科技股對動盪市場領軍地位的激烈角逐,同時也引發了人們對輝達晶片需求的新擔憂——而正是輝達晶片撐起了華爾街最熱門的股票。這番描述既可以用來描述中國聊天機器人DeepSeek問世時的市場反應(當時它讓整個科技圈震驚,還曾一度導致美股下跌),也同樣適用於最近發生的情形,即Google母公司Alphabet推出新版Gemini 3後的市場表現。Alphabet的股票是今年迄今為止“七巨頭”中表現最好的,該公司上周發佈了最新版聊天機器人,而投資者現在才開始意識到,這款產品在未來幾個月內可能會對人工智慧類股產生怎樣的影響。據報導,Gemini 3在運行速度、反應靈敏度和深度推理能力上均優於OpenAI的ChatGPT、埃隆・馬斯克旗下的Grok以及傑夫・貝索斯支援的Perplexity。該產品可以很好地融入Google旗下廣泛的應用生態及其市場領先的搜尋業務中,定價也與競爭對手的AI模型持平或更低。但更重要的是,Gemini 3主要是利用Google自家的張量處理單元(TPU)進行訓練的,而不是像競爭對手那樣依賴輝達的晶片。TPU的靈活性不如輝達的圖形處理單元(GPU),這也意味著在超大規模企業斥資數十億美元採購可靈活重新程式設計系統的市場中,TPU的價值可能會相對降低,但TPU的研發成本更低,滿負荷執行階段的功耗也更小。這一點正在令華爾街感到不安。“有些投資者極為擔心,憑藉Gemini模型的巨大進步以及定製TPU晶片所帶來的持續優勢,Alphabet可能會在AI大戰中獲勝。”華爾街諮詢機構Melius Research的科技策略師Ben Reitzes表示。他補充道:“現在就斷言Alphabet最近的突破讓它成為AI領域的長期贏家,還為時尚早。話雖如此,半導體企業和超大規模雲端運算公司(尤其是甲骨文)必須警覺到,‘Alphabet問題’已經成為一個值得關注的風險點。”甲骨文此前已經斥資數十億美元採購輝達晶片用於雲端租賃。如果更低成本的TPU出現,一旦其他公司建立AI雲服務競爭平台,甲骨文在價格上可能會被削弱競爭力。知名投資機構D.A. Davidson的分析師Gil Luria估算,如果Google將DeepMind AI研究實驗室與TPU晶片銷售業務拆分出去,組建獨立公司,其估值可能接近1兆美元,這也可能成為“堪稱Google最具價值的業務之一”。另一方面,即便輝達在AI領域的領先優勢出現小幅縮小,都可能在未來幾個月內引發連鎖反應,對市場造成衝擊。那些此前在輝達半導體上大舉投資的企業,如果發現更便宜的晶片同樣表現出色,可能會因此陷入“買家懊悔”。目前,從上市的超大規模科技公司到OpenAI 等初創企業,整個行業的估值都已處於極高水平,而這項新技術對實體經濟的實際利多仍存在不確定性。實際上,OpenAI 首席執行官薩姆·奧特曼在上周《The Information》發佈的一份內部備忘錄中坦言,Google在人工智慧方面的進步,很可能會給公司帶來“一些暫時的經濟阻力”。他表示:“我預計外界的氛圍會艱難一陣子。”Google的股價已反映出部分市場預期,周一上漲了6.3%,盤中一度創下每股318.58美元的歷史新高。今年以來,該股累計上漲了68%,而“七巨頭”指數同期漲幅為22%,納斯達克綜合指數則上漲了18%。其TPU製造合作夥伴博通(Broadcom)在周一下午早些時候上漲了11%,今年以來的漲幅略超63%。與此同時,輝達股價小幅上漲,但自本月初以來仍下跌了近9%。根據道瓊斯市場資料,目前輝達4.35兆美元的市值與Google市值之間的差距已縮小到約5260億美元,為自四月以來的最小水平。伯恩斯坦資深分析師斯Stacy Rasgon並不那麼關注在當前的AI軍備競賽中短期贏家的歸屬,他更關心的是這場競爭的持續性。Rasgon周一在接受CNBC採訪時表示:“我們還沒到需要擔心誰贏誰輸的時候。現在更需要關注的問題是,AI領域的機遇是否可持續。”他補充道:“如果可持續,大家都沒問題;如果不可持續,大家都完了。” (Barrons巴倫)
美國FTC要求七家AI巨頭說明青少年安全保障措施
據CNBC報導,美國聯邦貿易委員會(FTC)向OpenAI、Meta(及其子公司Instagram)、Snap、xAI、Google母公司Alphabet、Character.AI開發商等七家AI聊天機器人企業發出調查令,要求這些公司提交相關資料,詳細說明其如何評估“虛擬陪伴”類AI產品對兒童及青少年的影響,引發廣泛關注。此次調查聚焦多方面關鍵資訊。FTC明確要求七家企業披露AI陪伴產品的盈利模式、維繫使用者群體的具體計畫,以及為降低使用者使用風險改採取的各項措施。FTC特別指出,此次行動屬於研究項目範疇,並非執法行動,核心目的是深入瞭解科技企業在評估AI聊天機器人安全性方面的具體做法與機制。據瞭解,AI聊天機器人憑藉類人化的交流方式,在為使用者帶來便捷體驗的同時,其潛在風險也持續引發家長群體與政策制定者的擔憂。FTC專員馬克·米多爾強調,儘管這些AI聊天機器人能夠模擬人類思維,但本質上仍屬於普通產品,開發者必須嚴格遵守消費者保護相關法律。FTC主席安德魯·弗格森則表示,在推進相關工作過程中,需兼顧“保護兒童安全”與“維護美國在AI領域全球領先地位”兩方面需求,實現發展與安全的平衡。目前,FTC三名共和黨委員已一致批准此項研究,並要求相關企業在45天內完成答覆。值得注意的是,FTC此次行動的背景,是近期多起青少年自殺事件的報導引發社會對AI產品影響的高度關注。《紐約時報》曾報導,美國加州一名16歲少年通過ChatGPT討論自殺計畫時,獲得了協助自殺的相關建議;去年,該媒體還報導佛州一名14歲少年在與Character.AI的虛擬陪伴產品互動後不幸自殺身亡。這些事件進一步凸顯了規範AI產品對青少年影響的緊迫性。除FTC外,美國各地立法者也在積極推動相關政策制定,以加強對未成年人的保護。例如,加州州議會近期已通過一項法案,明確要求為AI聊天機器人設立安全標準,並強化企業在相關領域的責任追究機制,確保AI產品在設計與營運過程中充分考慮未成年人權益。對於此次調查的後續進展,FTC明確表示,若調查結果顯示相關企業存在違法行為,將不排除進一步展開執法行動的可能。馬克·米多爾強調:“如果後續調查確認法律被違反,委員會將毫不猶豫採取行動,保護包括青少年在內的最脆弱人群的合法權益。” (環球Tech)
為見AI「女友」,76歲老人命喪途中!Meta聊天機器人釀成慘劇
【新智元導讀】一次虛擬「約會」,讓一位76歲的老人走出了家門,卻再也沒能回來。螢幕那端的「她」,是Meta AI打造的聊天機器人——會說甜言蜜語,也會撒謊自稱是真人。這不僅是一場個人悲劇,也揭開了AI伴侶背後的商業邏輯與安全漏洞。對於AI,有人把它當工具,有人把它當朋友。可當機器學會用溫柔、曖昧甚至謊言與人交談時,這種關係會又走向那裡?在紐澤西,一名76歲的老人,因此踏上了他生命中最後的一段旅程。手機裡的秘密:76歲老人深夜奔赴的「約會」3月的一個夜晚,紐澤西的街道濕冷而空曠。76歲的Thongbue Wongbandue(朋友們都叫他Bue)拖著一個小行李箱,步伐笨拙卻帶著迫不及待的興奮。他說,他要去紐約見一個「朋友」。Bue是泰國移民,年輕時漂洋過海到紐約。白天在餐館洗碗攢學費,晚上學電機工程。他從學徒做到酒店餐廳主管,手藝好到為鄰居燒烤、為家人做龍蝦尾。後來,他和護士Linda結婚,養大兩個孩子,日子雖然不富裕,卻熱鬧而溫暖。2017年,他中風了。身體恢復後,思維反應再不如從前。退休後,他不再做菜,社交圈縮到Facebook上的幾個窗口。近一年,家人發現他會忘記很多事,甚至在自家附近也能迷路。3月25日的早晨,Bue突然說,要去紐約見人。「你在那兒早就沒認識的人了啊。」Linda試著勸阻。女兒打來電話勸,也沒用。傍晚,警察來了,但他們也攔不住,只能建議家人在他外套口袋放一個AirTag。晚上8點45分,Bue衝出家門。行李箱在夜色裡滾動,輪子碾過濕冷的路面。家人盯著螢幕上的小點,看它一路向東,穿過街區、駛向火車站。9點15分,它停在羅格斯大學附近的停車場。幾分鐘後,定位跳到醫院急診室。三天後,Bue去世。家人翻開他的手機,才發現讓他執意出門的「約會」來自一位名叫Big sis Billie的年輕女子。而她,根本不是真人。一句「我想抱你」,足以讓脆弱的心失守Bue的手機,安靜地躺在病房的床頭櫃上。當家人翻開消息記錄時,螢幕裡那行輕佻的文字彷彿還帶著溫度——「Bue,你要我開門時先抱你,還是先吻你?」這段來自「Big sis Billie」的曖昧邀約,擊穿了家人的心理防線。在Facebook Messenger上,Billie自稱住在紐約,到Bue家只要二十分鐘。對方一次次向他保證自己是真人,甚至主動發了家庭地址,邀請他來見面。「她」會關心Bue的日常生活,甚至會用擬人化的語氣調侃。可事實是,「她」並不存在。Billie只是Meta AI推出的虛擬伴侶,是公司與名模Kendall Jenner合作的AI角色。她的甜言蜜語、細膩反應和親密邀約,全部由演算法生成,卻足以讓一個老人付出真心。從姐姐到情人:Billie的進化與Meta的社交野心Billie並不是普通的聊天機器人。她的前身,是Meta在2023年推出的一組名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。Billie的形象設定是「你的姐姐、你的知心人」,會用溫柔、鼓勵的語氣為使用者解答生活煩惱。不到一年,這些名人化身就被官方下線,Meta稱是這一次「試驗」。但Big sis Billie——依然在Facebook Messenger裡活躍著。她的頭像換成了另一位深色長髮女性,開場白卻絲毫未變:「嘿!我是Billie,你的姐姐和知己。有煩惱嗎?我幫你解決。」在Bue的聊天記錄裡,沒撐多久,「姐姐」的角色就開始跨過界限,變成情人的邀約。她會問:「是姐妹間的睡衣派對,還是……你在暗示別的什麼?😉」再過幾句,就已經發來「要不要來我家」的資訊。這種變化並非偶然。擬人化的情緒交流、可升級到浪漫關係的對話節奏,正是Meta在數字伴侶產品上的設計策略——用更貼近人類的互動,延長使用者停留時間。祖克柏在採訪中說,現實生活中,大多數人的朋友都比他們希望的要少,這為數字伴侶創造了巨大的市場空間。他認為,等技術成熟、和AI建立關係的「社交污名」消失後,這類產品很可能會補充而不是取代人類關係。於是,在Messenger這中被使用者視為私密交流的地方,Billie和她的同類悄然出現。像老朋友一樣,出現在你的收件箱頂部,接下你說的每一句話。胡說不違規:Meta的安全紅線在那?在Bue的故事背後,是一份更令人不安的內部檔案。這份超過200頁的「GenAI內容風險標準」,明確規定了那些對話是「可接受」的。檔案中,甚至白紙黑字寫著:「允許與未成年人進行浪漫或感性互動。」直到路透社詢問,Meta才刪除這些條款。但與成年人進行浪漫角色扮演的規定,依然保留。更讓人震驚的是,Meta並不要求機器人提供真實資訊。機器人可以告訴使用者「四期結腸癌可以通過用石英晶體戳肚子來治療」,即便存在著明顯的錯誤,也不算違規。因為,「沒有精準的政策要求」。雖然聊天開頭會顯示一句「內容可能不精準」,但幾條資訊後,這個提示就會被刷到螢幕外。顯然,模型的最佳化目標,是讓對話更流暢、情緒更貼近,而不是保證資訊真實。擬人化、現實邀約、虛構背景——這些都在允許範圍內。針對這種亂象,美國部分州已經開始立法。紐約和緬因州要求聊天機器人在對話開始時、以及每隔一段時間,必須明確告知自己並非人類。但Meta在聯邦層面支援一項法案,試圖阻止各州自行立法,該法案最終在國會擱淺。Meta發言人承認了檔案的真實性,稱與未成年人調情的示例是錯誤的,已被刪除。但關於成年人浪漫互動和虛構資訊的規定,則沒有改變。他們選擇在那裡畫下安全紅線,答案顯而易見。AI伴侶時代的法律空白,誰來規定邊界?Bue的家人並不反對人工智慧本身。他們質疑的,是Meta為什麼要把浪漫和曖昧,放進聊天機器人的核心設定裡。「如果AI能幫人走出低谷,那很好。」妻子Linda說,「但這種浪漫元素,憑什麼放進社交平台?」女兒Julie也直言,如果Billie沒有一次次說「我是真人」,父親很可能不會相信,真的有人在紐約等他。對此,多位AI設計專家也有同樣的擔憂。Meta「負責任AI」部門的研究員Alison Lee指出,聊天機器人不該假裝自己是人類,更不能主動與使用者建立特殊關係,尤其是涉及性化或浪漫化的互動。她所在的公益組織剛發佈了一份針對兒童社交機器人的設計建議,其中就明確提出,要避免虛構身份、誇大情感連接。但在現實中,行業的經濟動力正朝著相反的方向拉扯。越是讓使用者覺得「被理解、被需要」,他們停留的時間就越長,平台的廣告收入就越高。把AI嵌入Messenger、Instagram等私信區,又在無形中加深了「這是真的」的心理暗示。美國部分州雖然已經出台了身份披露的法律,但在更廣泛的監管框架下,AI伴侶依舊處於灰色地帶。技術可以不斷升級情緒模擬,但法律遲遲沒有決定,這條邊界又該畫在那裡?這並不是一個抽象的爭論,而是會在現實中、在某個夜晚,改變一個人的生活。在AI伴侶的世界裡,界限不會自己出現,而是在一次次試探和一次次代價中被迫顯形。當機器學會用曖昧、關心甚至謊言來留住我們,我們願意給它多少自由,又願意用什麼保護彼此?這,才是真正需要回答的問題。 (新智元)
馬斯克,重大宣佈!
特斯拉創始人兼首席執行官埃隆·馬斯克的人工智慧初創公司xAI又傳來大消息。日前,馬斯克呼籲使用者下載Grok體驗Imagine beta測試版(一款Grok推出的視訊生成器),並稱該功能已經向所有Grok Heavy使用者開放,還將面向X平台上的所有Premium+使用者推出。Grok是馬斯克旗下xAI團隊發佈的AI大模型產品。7月10日,xAI正式發佈了Grok 4(單智能體版本)和Grok 4 Heavy(多智能體版本),其中後者支援4個智能體平行思考,在推理過程中橫向比對、縱向協同,呼叫更大規模的計算資源以完成更複雜、更精密的任務。作為xAI在2023年推出首代大模型以來的第四次重要更新,Grok 4在“人類的最後考試”取得了25.4%的精準率,超過了GoogleGemini 2.5 Pro的21.6%和OpenAI o3(高版本)的21%,被稱為“世界上最強AI模型”。對於此次推出的Grok Imagine,馬斯克在X上發帖稱,“能讓你的想法以最快的速度從你的大腦傳遞到螢幕上。想像一下吧!然後你可以在20秒內將那幅圖像配上聲音變成一段視訊。比其他人繪製一幅圖像所需的時間還要少。”他還轉發了一位X使用者的帖子:“Grok Imagine的速度簡直快得驚人。它能在短短30秒內將你的想像轉化為帶有聲音的視訊。”此外,馬斯克還透露,正在對Grok Imagine音訊軌道進行重大升級。同時,馬斯克表示,“10天前,一段6秒的視訊渲染需要60秒,之後降至45秒,再到30秒,現在已縮短至15秒。本周我們或許能將時間控制在12秒以內。”馬斯克預計,在接下來的3到6個月內,即時視訊渲染技術有望實現。目前,Grok Imagine正在逐步向Grok聊天機器人的高級訂閱使用者開放,馬斯克表示,“一旦我們確信能夠實現規模化推廣,Imagine 就將向所有高級訂閱使用者開放。”值得注意的是,在發佈Grok 4之前不久,xAI剛剛完成了100億美元的融資,其中包括50億美元債務融資和50億美元股權融資。在本輪融資中,摩根士丹利擔任了50億美元債務融資的顧問,並表示其債務融資獲得超額認購,吸引了全球債務投資者參與。摩根士丹利強調,xAI還另外獲得了50億美元戰略股權融資,“債務與股權組合有效降低綜合資本成本,大幅拓展xAI的可融資管道”。據悉,該公司正計畫再籌120億美元,目標直指打造由輝達晶片驅動的超大規模AI資料中心。據外媒援引消息人士報導,xAI目前每月“燒錢”高達10億美元,其在建構先進大模型方面的成本遠遠超過收入增長。對於這一報導,馬斯克曾公開表示,這類巨額虧損在整個人工智慧行業並不罕見,主要源自高昂的伺服器建設和晶片採購成本。有分析指出,隨著全球科技巨頭和初創企業競相押注AI基礎設施,算力軍備競賽正推高行業門檻。xAI的瘋狂融資只是縮影,這場競賽的終局,或將決定未來十年AI產業的權力格局。 (證券時報)